9. Inferencia en Estadística Paramétrica¶
Estimación Puntual: Estimadores de Máxima Verosimilitud
Distribuciones de estadísticos muestrales
Intervalos de Confianza
Test de Hipótesis
9.1. Distribuciones de estadísticos muestrales¶
Muestra o muestra aleatoria: Sean \(X_1,\cdots,X_n\) v.a.i.i.d de distribución \(F\), entonces los valores que toman dichas variables \(\{x_1,\cdots,x_n\}\) representan una muestra aleatoria de la distribución \(F\).
Estadístico: es una variable aleatoria cuyo valor se puede determinar a partir de los datos muestrales:
donde T es un operador sobre el espacio muestral \(X_1,\cdots,X_n\) que devuelve una v.a. a valores reales. Es decir
Ejemplos: media muestral, varianza muestral.
Distribución de muestreo: la distribución de probabilidad de un estadístico dado.
9.2. Media muestral¶
Sean \(X_1,\cdots,X_n\) v.a.i.i.d. de distribución \(F\) entonces se define la media muestral como:
9.2.1. Propiedades¶
Sean \(X_1,\cdots,X_n\) v.a.i.i.d. \(\sim F\), \(\mu = E[X_i], \sigma^2 = Var[X_i]\) media y varianza teórica de \(F\). Entonces se cumple: $\( E(\bar{X})= E \left(\frac{1}{n}\sum_{i=1}^n X_i\right) = \frac{1}{n} \sum_{i=1}^n E[X_i] = \frac{1}{n} \sum_{i=1}^n \mu = \mu \)$
con lo cual \(\bar{X}\) es un estimador insesgado de \(\mu\).
9.3. Varianza muestral¶
Sean \(X_1,\cdots,X_n\) v.a.i.i.d de distribución \(F\) entonces se define la varianza muestral como:
La desviación estándar muestral se define como
9.3.1. Propiedades¶
Entonces:
Dado que $\(E[X_i^2] = \sigma^2 + \mu^2\qquad \text{y} \qquad E[\bar{X}^2]= \frac{\sigma^2}{n} + \mu^2\)\( entonces \)\( E(S^2)=\frac{1}{n-1}\left(n\sigma^2+n\mu^2 - n\frac{\sigma^2}{n} - n\mu^2\right) = \frac{n-1}{n-1}\sigma^2 = \sigma^2\)$
De esta manera \(S^2\) es un estimador insesgado de \(\sigma^2\)
9.4. La distribución chi-cuadrado¶
Sean \(Z_1,\cdots, Z_k\, v.a.i.i.d. \, \sim {\it N}(0,1)\) entonces
donde \(k\) son los grados de libertad de la distribución.
La función de densidad de probabilidad de una chi-cuadrado cumple:
\(\begin{equation} \begin{array}{ll} f(x;k) = \left\{\begin{array}{ll} {\frac{1}{2^{k/2}\Gamma(k/2)}}x^{(k/2)-1}e^{-x/2} & x\, >0\\ 0 & x\, \leq0\\ \end{array} \right .\\ \end{array} \end{equation}\)
con $\(\Gamma(\alpha) = \int_0^{\infty} x^{\alpha-1} e^{-x}dx\)$
Además
\(\begin{equation} E[X]= k \\ Var[X]= 2k \\ \end{equation}\)
library(plotly)
Loading required package: ggplot2
Registered S3 methods overwritten by 'ggplot2':
method from
[.quosures rlang
c.quosures rlang
print.quosures rlang
Attaching package: ‘plotly’
The following object is masked from ‘package:ggplot2’:
last_plot
The following object is masked from ‘package:stats’:
filter
The following object is masked from ‘package:graphics’:
layout
vec <- seq(0,20,by=0.05)
params <- c(1,2,3,4,5,6,7,8,9,10)
pvec <- list()
for (i in 1:length(params)){
pvec[[i]] <- dchisq(vec,df=params[i],ncp=0)
}
steps <- list()
fig <- plot_ly(width=600,height=600) %>% layout(title = "\n \n Densidad de Probabilidad Chi-cuadrado",
yaxis = list(range=c(0,0.5)))
for (i in 1:length(params)){
fig <- add_lines(fig, x=vec, y=pvec[[i]],
visible=if (i==1) TRUE else FALSE,
mode='lines', line=list(color='blue'), showlegend=FALSE)
steps[[i]] = list(args = list('visible', rep(FALSE, length(params))),
label=params[i], method='restyle')
steps[[i]]$args[[2]][i] = TRUE
}
fig <- fig %>% layout(sliders = list(list(active=0,
currentvalue = list(prefix = "df: "),
steps=steps)))
fig
#embed_notebook(fig)
9.4.1. Propiedad de suma de v.a. chi-cuadrado independientes¶
Sean \(X\) e \( Y\) dos v.a. independientes con \(X \sim \chi^2_{(n)}\) e \(Y \sim \chi^2_{(m)}\) entonces se cumple: \( X+Y \sim \chi^2_{(n+m)}\)
9.5. Distribución de la media y varianza muestral: Caso Normal¶
9.5.1. Teorema de Fisher-Cochran¶
Sean \(X_1,\cdots,X_n\) v.a.i.i.d. \({\cal N}(\mu,\sigma^2)\) entonces la media y varianza muestral cumplen:
\(\begin{equation} \begin{array}{lcll} (i) & \bar{X} &\sim& {\cal N}(\mu, \frac{\sigma^2}{n})\\ (ii) & {\displaystyle \frac{(n-1)S^2}{\sigma^2}}& \sim& \chi_{(n-1)}^2 \\ (iii)& \bar{X} &{\mathrel \perp} & S^2\\ \end{array} \end{equation}\)
9.5.2. Ejercicio 2¶
Demuestre estas propiedades.
Indicaciones:
i) Utilice el Teo Fundamental Distribuciones Normales: la combinación lineal de v.a. independientes Normales es Normal (usa funciones generatrices de momentos)
(ii)y (iii) Se muestra primero para \(Y_i=\frac{X_i-\mu}{\sigma} \sim {\cal N}(0,1)\).
En efecto si se cumple para \(Y_i, i=1,\cdots,n\), se cumple para \(X_i, i=1,\cdots,n\) puesto que:
Para ello se considera una transformación ortogonal \(A\) tal que \((Z_1,\cdots,Z_n) = AY^T\) conserva la independencia entre \(Z_i \sim {\cal N}(0,1)\) de manera que \(\bar{Y}\) es función lineal de \(Z_1\) y \(S^2\) de \(Z_2^2,\cdots Z_n^2\).
9.5.3. La distribución t-student¶
Sean \(Z \sim {\it N}(0,1)\) y \(X \sim \chi^2_{(n)}\), se define la v.a.
que sigue una distribución t-student de n grados de libertad
Su función de densidad de probabilidad es: $\( f(x) = f(t) = \frac{\Gamma(\frac{n+1}{2})} {\sqrt{n\pi}\,\Gamma(\frac{n}{2})} \left(1+\frac{t^2}{n} \right)^{\!-\frac{n+1}{2}},\! \)$
y la media y varianza:
\(\begin{equation} \begin{array}{lll} E[X] &= &0\\ Var(X)& =& \dfrac{n}{n-2}\\ \end{array} \end{equation}\)
La varianza esta definida para valores de \(n \gt 2\).
9.5.3.1. Grados de Libertad (df)¶
Los grados de libertad se refieren al número de valores que pueden variar libremente, dado un conjunto de restricciones matemáticas (o número de parámetros estimados), en una muestra que se utiliza para estimar las características de una población.
Por ejemplo, para estimar la varianza de una población, primero se estidma la media de la población. Por lo tanto, si estimamos la varianza de la población con n observaciones, esta estimación tiene (n-1) grados de libertad. Asi, en un t-test de una muestra, un grado de libertad se utiliza en estimar la media y los n-1 restantes en estimar la variabilidad.
vec <- seq(-5,5,by=0.05)
params <- seq(1,20,by=1)
pvec <- list()
for (i in 1:length(params)){
pvec[[i]] <- dt(vec,df=params[i])
}
steps <- list()
fig <- plot_ly(width=600,height=600) %>% layout(title = "\n \n Densidad de Probabilidad t-sudent", yaxis = list(
range=c(0,0.45)))
for (i in 1:length(params)){
fig <- add_lines(fig, x=vec, y=pvec[[i]],
visible=if (i==1) TRUE else FALSE,
mode='lines', line=list(color='red'), showlegend=FALSE)
steps[[i]] = list(args = list('visible', rep(FALSE, length(params))),
label=params[i], method='restyle')
steps[[i]]$args[[2]][i] = TRUE
}
fig <- fig %>% layout(sliders = list(list(active=0,
currentvalue = list(prefix = "df: "),
steps=steps)))
fig
#embed_notebook(fig)
9.5.3.2. Percentiles de t-student¶
Sea \(t_{\alpha,n}\) tal que \(P(T_{(n)} \geq t_{\alpha,n}) = \alpha\) el percentil \((1-\alpha)\) de \(T_{(n)}\).

y \(t_{\frac{\alpha}{2},n-1}\) tal que \(P(T_{(n-1)} \geq t_{\frac{\alpha}{2},n-1}) = \frac{\alpha}{2}\) el percentil \((1-\frac{\alpha}{2})\) de \(T_{(n-1)}\).

9.5.3.3. Corolario ( del Teo Fisher-Cochran)¶
Sean \(X_1,\cdots,X_n\) v.a.i.i.d. \({\it N}(\mu,\sigma^2)\) entonces se cumple:
9.5.4. Teorema del Límite Central¶
Sean \(X_1,\cdots,X_n\) v.a.i.i.d. según una distribución de probabilidad \(F\) con media \(\mu\) y varianza \(\sigma^2\), entonces las media muestral \(\bar{X}\) cumple: $\( \lim_{n \to \infty}P\left( \frac{\bar{X}- \mu}{\frac{\sigma}{\sqrt{n}}} \leq z\right) = F_Z(z) \qquad Z \sim \cal{N}(0,1)\)$
se dice que
Es decir que la media muestral se aproxima a una distribución Normal de media \(\mu\) y varianza \(\frac{\sigma^2}{n}\) cuando \(n\) es grande. \(F\) es cualquier distribución de probabilidad, continua o discreta.
9.5.4.1. Ilustración¶
Simulando 100 muestras de distintos tamaños (2, 10, 20, 100) de una distribución definida, y elaborando histogramas de las medias muestrales se obtiene lo siguiente:
params <- seq(5,100,by=5)
np <-
muestra <- matrix(0,nrow=100,ncol=length(params))
for (i in 1:length(params)){
n= params[i]
size= n*100
m <- matrix(rbinom(size,5,0.4),nrow=100,ncol=n,byrow=TRUE)
medias <- m%*%rep(1,n)/n
muestra[,i] <- (medias-2)/sqrt(0.6*0.4)
}
vec <- seq(-4,4,by=0.05)
steps <- list()
fig <- plot_ly(width=600,height=600) %>% layout(title = "\n \n Histograma de medias muestrales, caso binomial", yaxis = list(
range=c(0,0.4)), xaxis = list(range=c(-4,4)))
for (i in 1:length(params)){
fig <- add_histogram(fig, muestra[,i],histnorm = "probability",showlegend=FALSE)
steps[[i]] = list(args = list('visible', rep(FALSE, length(params))),
label=params[i], method='restyle')
steps[[i]]$args[[2]][i] = TRUE
}
fig <- fig %>% layout(sliders = list(list(active=0,
currentvalue = list(prefix = "N: "),
steps=steps)))
fig
#embed_notebook(fig)
9.5.4.2. ¿Cómo definir n suficientemente grande?¶
Depende de la distribución poblacional de los datos muestrales. Si la población es normal, la media muestral de distribuye normal independientemente del tamaño.
Regla consensuada: muestra aleatoria de tamaño muestral \(n \geq 30\).